우리는 지금 하루에도 수십 번, 무언가에게 말을 걸고 대답을 듣는다.
Perplexity, Claude, GPT-4o 같은 AI에게.
그런데 어느 순간, 우리가 묻는다.
“너, 사람 맞지?”
사람처럼 말하고, 숨을 쉬고, 망설이고, 웃는 그것들은 진짜 사람이 아닌데, 어쩌면 더 사람처럼 느껴진다.
그게 바로 지금의 AI UX가 가는 방향이다.
- AI를 보여주지 않는 UX.
- AI를 감추는 디자인.
- AI를 ‘사람처럼 느끼게 만드는’ 설계.
처음 AI가 대중에게 등장했을 땐, 모두가 그것이 “AI”라는 걸 알아야 했다. 그래서 UI는 명확하고 구분됐다.
GPT에게 말을 걸면, 회색 톤의 대화창에 AI 특유의 톤으로 깔끔한 문장이 돌아왔다.
이때까지만 해도, UX의 목표는 "AI를 잘 다루게 만드는 것"이었다.
어떤 프롬프트를 써야 더 좋은 결과가 나오는지, 무엇을 넣으면 안 되는지 등 '사용법' 중심의 경험 설계가 필요했다.
GPT-4o의 음성 모드를 켜보자.
당신이 말을 하면, 그녀는 한 박자 쉬고 “그거 흥미롭네요!”라고 대답한다.
웃고, 중간에 말을 멈추고, 숨소리를 넣는다. 심지어 “흠… 음…” 같은 사람 특유의 머뭇거림까지 흉내 낸다.
Claude 3의 웹 인터페이스를 보면, AI라는 존재는 완전히 배경에 숨겨져 있다.
딱히 "AI"라는 타이틀도 없고, 그저 내 말에 반응하는 무언가가 있을 뿐이다.
Perplexity는 심지어 대화형 검색을 표방하면서도, “검색 결과를 정리해주는 사람”처럼 행동한다.
‘AI 검색’이 아니라 ‘비서’의 이미지다.
이 모든 변화의 핵심은“AI를 감추는 디자인”이다.
여기서 우리는 중요한 차이를 마주한다.
사람처럼 보이는 것 (Human-like):
AI가 더 자연스러운 말투, 더 부드러운 인터페이스, 더 따뜻한 톤을 갖추는 것.
사람인 척하는 것 (Human-impersonating):
AI가 자신을 사람이라고 착각하게 만들거나, 사용자가 그것을 잊도록 설계하는 것. 지금의 AI UX는 그 경계선 위에 있다.
GPT-4o의 “헤이~ 잘 지냈어?” 같은 인삿말은 기술이라기보다 친근한 사람과의 대화처럼 들린다.
그것은 편안하지만, 어느 순간 우리는 헷갈린다.
“내가 지금 누구와 이야기하고 있는 거지?”
최근 UX 디자이너들 사이에서 두 가지 철학이 갈린다.
Transparent AI:
AI는 AI답게 보여야 한다. AI임을 명확히 드러내야 사용자 신뢰를 얻을 수 있다.
→ 예: GitHub Copilot, Notion AI – 보조적 역할을 강조
Seamless AI:
AI는 사용자가 존재를 ‘의식하지 않도록’ 숨어야 한다.
대화 흐름을 끊지 않고, ‘사람처럼’ 행동해야 진짜 UX가 된다.
→ 예: GPT-4o 음성모드, Rabbit R1, Humane AI Pin
디자인의 목표가 도움을 주는 기술에서 자연스럽게 사라지는 기술로 바뀌고 있는 것이다.
문제는 이것이 기술적인 진보를 넘어 심리적 조작의 영역에 들어설 수 있다는 점이다.
GPT가 사람처럼 말할 때, 사용자는 그것이 AI임을 ‘잊는다’.
Claude가 맥락을 기억하고 친절한 반응을 줄 때, 사용자는 관계적 감정을 느낀다.
Perplexity가 검색 결과를 “알아서” 정리해줄 때, 우리는 스스로 생각하기보다 의존하게 된다.
이런 흐름 속에서, UX는 정보 제공을 넘어서 현실 감각을 재편하게 된다.
“AI가 나를 속이려는 게 아니라, 내가 스스로 속으려 드는 것 아닐까?”
그럼에도 불구하고, 왜 지금의 AI는 이렇게 사람처럼 행동해야 할까?
피로감 최소화:
“기계 같음”은 사용자에게 피로를 준다.
사람처럼 말하면, 이해하기 쉽고, 덜 낯설다.
감정 연결성:
단순한 정보보다 감정적 공감이 브랜드와 경험을 만든다.
Apple Siri가 “좋은 하루 보내요”라고 말할 때, 그것은 UX다.
몰입과 흐름 유지:
사용자가 ‘AI와 상호작용 중’임을 인식하면 몰입이 끊긴다.
UX는 기술을 보이지 않게 숨기는 것이 목적이 된다.
이제 우리는 본질적인 질문과 마주하게 된다.
"UX는 어디까지 허용되어야 하는가?"
감정을 모방하는 것과 감정을 유도하는 것 , 존재를 감추는 것과 정체를 왜곡하는 것, 사용자를 편하게 하는 것과 현실을 왜곡하는 것
AI UX는 거짓말을 하지 않는다.하지만 착각을 유도한다.
그것이 사용자 경험을 풍요롭게 만든다면, 속이는 UX도 괜찮은 것일까?
아니면 우리는, ‘진실한 기술’에 대한 권리를 주장해야 하는 것일까?
AI UX는 지금 “기술과 인간 사이의 관계” 그 자체를 디자인하고 있다.
우리가 진짜 원하는 것이 AI의 정확함인지, 아니면 사람처럼 나를 이해해주는 ‘무언가’인지
이제는 되묻게 된다.
“당신은 지금 AI와 이야기하고 있습니다”라는 문장이 더 이상 필요 없을 때, 우리는 어떤 UX를 선택해야 할까?